künstliche Intelligenz: Arbeits- und Anwendungsgebiete

künstliche Intelligenz: Arbeits- und Anwendungsgebiete
künstliche Intelligenz: Arbeits- und Anwendungsgebiete
 
Prinzipien der Problemlösung
 
Der Schachwettkampf zwischen Gary Kasparow und dem IBM-Computer »Deep Blue« im Mai 1997 hat in der Öffentlichkeit reges Interesse geweckt; handelte es sich hierbei doch um den ersten großen Sieg einer mit künstlicher Intelligenz ausgestatteten Maschine über den mit natürlicher Intelligenz begabten Menschen.
 
Das Lösen von strategischen Problemen wie denen des Schachspiels ist prototypisch für das, was die KI ganz allgemein unter Problemlösen versteht: Gegeben ist eine Aufgabe mit einem klaren Ziel — hier das Schachmattsetzen des Gegners — und eine Vielzahl von Möglichkeiten, sich diesem Ziel zu nähern, wobei es vermutlich jeweils einen optimalen nächsten Schritt gibt, den herauszufinden es gilt. Wie konnte Deep Blue diese bewundernswerte technische Leistung vollbringen, wie findet er ganz konkret den optimalen nächsten Zug einer Schachpartie? Die »Denkmethode«, mit der er arbeitet, ist eine der wichtigsten Methoden des Problemlösens in der KI; sie ist unter dem Sammelbegriff »heuristische Suche« bekannt.
 
Schach und der Baum der Erkenntnis
 
Die meisten Programme, die Strategiespiele wie Dame, Backgammon oder eben Schach beherrschen, sind anschauliche Beispiele für den Einsatz solcher heuristischer Suchverfahren, denen folgende Überlegung zugrunde liegt: Jeder unternommene Schachzug eröffnet neue Zugmöglichkeiten, und jede dieser Möglichkeiten führt zu einer Vielfalt von Alternativen für den darauf folgenden Zug. Bei der Planung einer Schachpartie gilt es nun, sich in das stark verzweigte Labyrinth möglicher Stellungen vorzutasten, das man in Form eines Suchbaums darstellen kann. Gewöhnlich zeichnet man diesen Baum auf dem Kopf stehend, sodass er mit der Wurzel nach oben und den Ästen nach unten zeigt. Die Wurzel repräsentiert die Ausgangsstellung, während die Äste für die Züge und die Astenden für die alternativen Stellungen stehen, die sich aus diesen Zügen ergeben. Es gilt nun, den optimalen Zug zu finden, indem möglichst viele Alternativen vorausberechnet werden.
 
Die Gesamtheit aller nur erdenklichen Züge zu berücksichtigen hieße, jeden Ast des Baums einzeln zu verfolgen. Dieses Vorgehen böte die Gewähr dafür, dass die optimale Strategie tatsächlich auch gefunden würde, hat aber einen entscheidenden Haken: Es gibt etwa 10120 verschiedene Stellungen, die während einer Schachpartie möglich sind! Mit ihrer Berechnung wären die schnellsten heute verfügbaren Rechner einige Hundert Billionen Jahre beschäftigt. Der Suchbaum ist hier also, wie auch in den meisten anderen Problemen, so ausgedehnt, dass sich eine erschöpfende Suche von selbst verbietet. Daher hat Deep Blue in seiner Wissensbasis einen Vorrat an heuristischen Suchprinzipien gespeichert, das heißt an simplen Faustregeln, mit deren Hilfe er schon frühzeitig die aussichtsreichsten Züge auswählt, um nur diese weiterzuverfolgen. Er kann zwar am Ende nicht wirklich sicher sein, dass das Ergebnis seiner heuristischen Suche tatsächlich der optimale Zug ist, aber das Verfahren hat sich bewährt: Man verwendet heuristische Suchverfahren in der KI nicht nur für Strategiespiele, sondern für eine ganze Vielzahl von Programmtypen, beispielsweise auch für solche, die einen Roboter in die Lage versetzen, planvoll mit Objekten im Raum zu hantieren oder sich selbst überlegt fortzubewegen.
 
Solche heuristischen Prinzipien sind sehr praktisch und wirkungsvoll und verkürzen die Suche ganz erheblich, und dies nicht nur für den Computer. Auch ein vernünftiger Arzt etwa wird seine Patienten nur solchen Tests unterziehen, die ihm aufgrund der geschilderten Symptome als sinnvoll erscheinen, und jeder Reisende, der möglichst schnell mit dem Auto von München nach Hamburg fahren möchte, tut gut daran, die Benutzung von Waldwegen erst gar nicht in Erwägung zu ziehen, sondern sich gleich an Autobahnen zu halten.
 
Man kann dieses Verfahren der heuristischen Suche als den Spezialfall einer allgemeinen menschlichen Problemlösungsstrategie betrachten: Wenn der Mensch ein Problem zu lösen hat, dann versucht er dies in der Regel dadurch, dass er das Problem in Teilprobleme zerlegt, dann diese löst und die Teillösungen schließlich zu einer Gesamtlösung zusammensetzt. Der Vorteil dieser Vorgehensweise liegt darin, dass Teilprobleme einfach bewertbar und bezüglich der Konsequenzen ihrer Lösung überschaubar sind.
 
Heuristische Suchprinzipien
 
Mit welcher Strategie man den Suchbaum eines strategischen Problems am besten durchforstet, hängt von dem zugrunde liegenden Problem ab. Das gewählte Suchprinzip bestimmt die Reihenfolge, in der die Knoten des Baums besucht werden, und mithilfe der Kostenfunktionen schätzt man für jeden gegebenen Zustand, welcher der nun möglichen nächsten Schritte am verheißungsvollsten erscheint, um dem Ziel näher zu kommen.
 
Das ist im Wesentlichen nichts anderes als das, was ein Bergsteiger tut, der im dichten Nebel versucht, den Gipfel eines Berges zu besteigen. Das nächstliegende Verfahren für ihn wäre es, die Richtung zu wählen, in der es am steilsten nach oben geht. Dass diese Strategie nicht immer zum gewünschten Erfolg führt, ist offensichtlich. Unser Bergsteiger sollte also besser eine andere Strategie, eine andere Heuristik anwenden.
 
Beispielsweise kann er sich mit anderen, im Nebel genauso »blinden« Bergsteigern wie er selbst über Sprechfunk verbinden, um sich wechselseitig abzustimmen, wer den nächsten, insgesamt am weitesten bergauf führenden Schritt tut.
 
Im ersten Fall würde der Kletterer — in der Ausdrucksweise der KI — der »Steepest-Ascent-Hill-Climbing-Strategie« folgen, bei der die Kostenfunktion nur lokal bestimmt wird, und in letzterem einer »Best-First-Strategie« mit globaler Messung der Kostenfunktion.
 
Eine Verbesserung kann man erzielen, indem man die Kostenfunktion durch eine Schätzung ergänzt, die angibt, wie weit das Ziel noch entfernt zu sein scheint. Übertragen auf das Bergsteiger-Beispiel könnte die Schätzfunktion durch die direkte Entfernung Standort —Gipfel definiert sein, wozu natürlich klare Sichtverhältnisse oder aber fundiertes Wissen über die Topographie der Umgebung erforderlich wären.
 
Eine solche Vorgehensweise erscheint zwar plausibel, sie garantiert jedoch immer noch nicht das Auffinden einer optimalen Lösung, denn auch eine Schätzfunktion schätzt eben nur die Distanz bis zum Ziel und ist daher ungenau.
 
 
Statt die Äste eines Suchbaums nacheinander zu erforschen, wäre es bei vielen Problemstellungen von Vorteil, unabhängige Teilaspekte einer Suche gleichzeitig zu überprüfen. Dies kann dadurch erfolgen, dass bei der Wahl einer bestimmten Alternative im Suchraum andere Möglichkeiten wegfallen oder stark eingeschränkt werden. Diese Einschränkung kann wiederum zur Einschränkung weiterer Alternativen führen und so fort. Das von David L. Waltz Anfang der 1970er-Jahre vorgestellte Verfahren nennt man daher Verfahren der fortschreitenden Einschränkung (englisch Constraint Propagation). Hinter dem englischen Begriff Constraints verbergen sich Beschränkungsrelationen, die dazu verwendet werden, gültige Bedingungen eines Problembereichs darzustellen und zur Lösung des Problems einzubeziehen, beispielsweise eine logische Beziehung oder eine algebraische Gleichung. Auf das Bergsteiger-Beispiel übertragen, kann man sich dies etwa so vorstellen, dass man die Route bis zum Gipfel nur über verschiedene Teilziele erreichen kann, etwa vom Tal über eine Almhütte zum Basislager und von dort über eine Bergstation zum Gipfel. Hat sich ein Bergsteigerteam im Nebel in mehrere kleinere Teams aufgeteilt und eines der Teams die Almhütte erreicht, so wäre es sinnlos, dass die anderen Teams weitersuchen. Eine sinnvolle Fortsetzung der Suche wäre es, das Team an der Almhütte weiter aufzuteilen, um zum nächsten Etappenziel, dem Basislager, zu gelangen. Waltz benutzte Beschränkungsrelationen, um idealisierte Bilder von verschiedenartigen Bauklötzen zu analysieren und herauszufinden, ob es sich bei den zweidimensionalen Abbildungen um konvexe oder konkave Ecken handelt. Die Information, die bei der Projektion der dreidimensionalen Bausteine auf die zweidimensionale Abbildung verloren geht, assoziiert der Mensch mühelos durch sein Wissen über die Welt. Waltz hat mithilfe von Beschränkungsrelationen aufgezeigt, dass ein Computer zu gleicher Leistung imstande ist. Und nicht nur das: Der Computer ist inzwischen sogar in der Lage, den Weltmeister im Schach zu besiegen.
 
 Verarbeitung natürlicher Sprache
 
Um Information mit anderen auszutauschen, hat der Mensch über Jahrtausende hinweg natürliche Formen der sprachlichen Kommunikation entwickelt. Aus einer ursprünglich reinen Lautsprache, welche — anfänglich noch in Stein oder Muschelschalen geritzt und später auf Pergamentpapier geschrieben — die Geschichte überdauert hat, wurde eine hoch entwickelte Kommunikationsform, die einen der wichtigsten Bestandteile unserer Kultur darstellt.
 
Die Sprache ist ein Sortiment von gesprochenen Lauten sowie geschriebenen Zeichen und Symbolen, welches es den Menschen nicht nur erlaubt, Informationen miteinander auszutauschen, sondern welches auch unser Denken und Handeln in erheblichem Maße fördert. Zivilisiertes Leben in der jetzigen Form wäre wahrscheinlich ohne Sprache nicht möglich. Erst die Sprache versetzt den Menschen in die Lage, seine abstrakten Denkvorgänge auszudrücken.
 
Dabei ist die Intelligenzleistung, die der Mensch bei seinem Umgang mit seiner Sprache vollbringt, enorm. Er kann beim entspannten Lesen mehr als 300 Wörter pro Minute verarbeiten, das ist immerhin etwa doppelt so viel, wie er bei flüssiger Rede im gleichen Zeitraum selbst sprechen kann. Die mentale Arbeit geht aber noch viel weiter: Beim Lesen werden aus Buchstaben Gedanken und Assoziationen, verborgene Wünsche und Gefühle werden geweckt, und längst vergessen geglaubte Erlebnisse geschehen von neuem. Franz Mechsner hat an einem kleinen Beispiel den Prozess des Lesens anschaulich und treffend so umschrieben:
 
»Solange der Junge mit der edelsten aller Rothäute« (gemeint ist Winnetou) »zusammen ist, merkt er kaum, dass er, während er über die Prärie zu galoppieren glaubt, in Wahrheit unbewegt im Bett liegt. Sich in Raum und Zeit verlierend, kann er sogar vergessen, dass er liest, so gedankenleicht und ohne Widerstand fliegen die Buchstaben vom Papier in sein Gehirn und schaffen in jenem Organ, das zugleich Materie und Geist ist, Prärie und Pferde, den Freund der Freunde, ja, erschaffen ihn selbst neu — ohne dass er von der Neuschöpfung der Welt überhaupt etwas spürt.«
 
Die Verarbeitung von Sprache ist damit eines der komplexesten Phänomene menschlicher Intelligenz überhaupt. Gerade deshalb ist es umso verwunderlicher, mit welcher Mühelosigkeit das menschliche Gehirn Sprache erfasst und deutet. Die unbewusste Leichtigkeit, mit der dies geschieht, kann mit den heute verfügbaren Computern auch nicht annähernd simuliert werden.
 
Schon das Lesen eines einzelnen Wortes bewirkt die Aktivität vieler Gehirnbereiche. Besonders Sehrinde, Zwischen- und Mittelhirn, aber auch der für die akustische Verarbeitung zuständige Gehirnbereich werden dabei aktiviert. Dies mag verwundern, doch wenn man darauf achtet, kann man sich selbst beim Lesen »zuhören«.
 
Wir können heute davon ausgehen, dass Sprachverständnis eine spezielle Form des Denkens ist. Dabei wird die beabsichtigte Mitteilung durch die Einbeziehung zahlreicher Wissensquellen wie des Satzzusammenhangs oder der Kenntnis über die Sprache sowie des Wissens über die Welt abgeleitet. Ein wesentliches Problem dabei ist, wie wir noch sehen werden, die Mehrdeutigkeit, die jede Sprache kennzeichnet.
 
Um Sprache, gleich ob gedruckt oder gesprochen, zu verstehen und umgekehrt sich mitteilen zu können, ist der Wortschatz von zentraler Bedeutung, wobei weniger die Anzahl als die Qualität der bekannten Wörter ausschlaggebend ist. Der Wortschatz, den wir beim alltäglichen Kommunizieren verwenden, ist viel kleiner, als man erwarten würde. Im Englischen beispielsweise reichen etwa 3000 Wörter aus, um 90 % eines allgemeinen Texts zu erkennen. Bei gesprochener Sprache ist diese Menge noch wesentlich geringer. Hier reichen schon etwa 1000 Wörter aus, um 90 % der Umgangssprache zu verifizieren. Es wäre demnach leicht, dem Computer das Verständnis von Sprache beizubringen, falls Sprachverstehen ein bloßes Nachschlagen von Einzelwörtern wäre. Das erforderliche Vokabular wäre aufgrund obiger Zahlen wohl sehr einfach auf Speichermedien der heutigen Kapazität zu verwalten. Dass das Verstehen einer Sprache jedoch weit mehr ist als das Zusammenfassen von individuellen Wortbedeutungen, haben die KI-Forscher sehr leidvoll erfahren müssen:
 
Menschen verfügen über eine Vielzahl an Hilfsmitteln, um Sprache zu verstehen: Spracherfahrung, Wissen über den Gesprächsgegenstand und Allgemeinwissen über die Welt, über Raum und Zeit. Zudem tauschen sich Menschen nicht ausschließlich mittels Sprache aus, sondern unterstützen ihren Mitteilungswert durch nichtverbale Kommunikation. Dazu setzen sie Gestik, Mimik oder die emotionale Klangfärbung der Stimme ein. Oft reichen daher nur wenige Wortfetzen in einer lautstarken Umgebung aus, um die Aussage des Sprechers zu verifizieren. Technische Systeme sind in dieser Hinsicht wesentlich stärker eingeschränkt. Kein Computer oder Roboter verfügt über eine entsprechende Sensorik oder subjektive Assoziationsfähigkeiten. Wenn Computer dennoch in der Lage sein sollen, Sprache zu erkennen und zu verarbeiten, so muss der Radius des verwendeten Vokabulars, des Inhalts und des zum Verständnis nötigen Zusatzwissens sehr eng abgesteckt werden.
 
Maschinelle Sprachanalyse
 
Ziel einer maschinellen Analyse von Sprache ist es, Theorien und Techniken zu entwickeln, die es einem Computer erlauben, Ausdrücken der gesprochenen und geschriebenen natürlichen Sprache eine Bedeutung zuzuweisen.
 
Erste Ansätze konzentrierten sich darauf, Übersetzungssysteme zu konstruieren, die anhand eines in der Wissensbasis gespeicherten Lexikons wortweise aus dem Englischen ins Russische übersetzen sollten. Dieses Unterfangen war, weil ausschließlich auf das Vokabular beschränkt, nicht besonders fruchtbar. Ein bekanntes Negativbeispiel aus der Literatur ist etwa der Satz:
 
»Der Geist ist willig, aber das Fleisch ist schwach
 
der, ins Russische übersetzt und wieder ins Englische zurückübersetzt, den folgenden Satz hervorbrachte:
 
»Der Wodka ist stark, aber das Steak ist billig.«
 
Um die Mitteilung eines Satzes zu bestimmen, bedarf es weitaus mehr, als nur die einzelnen Wörter und deren Bedeutung zu kennen: Vorstellungen und Wissen der an der Kommunikation teilnehmenden Personen müssen nachvollzogen werden können, und zudem muss das System die Fähigkeit besitzen, mit unvollständigem und teilweise inkonsistentem Wissen umzugehen, wie es in der Umgangssprache oft auftaucht.
 
Hat der Computer den geschriebenen oder gesprochenen Text als Abfolge von bestimmten Wörtern einmal erkannt, so beginnen die Schwierigkeiten erst richtig: Nun geht es darum, die grammatikalische Korrektheit und die Bedeutung des Texts zu erkennen; der Computer muss, um die sprachwissenschaftlichen Fachausdrücke zu verwenden, eine syntaktische und eine semantische Analyse durchführen.
 
Betrachtet man nur einmal Wörter als isolierte Elemente ohne Zusammenhang im Satz, so ist oft schon nicht entscheidbar, was ein einzelnes Wort bedeutet. Beispielsweise kann das Wort »Montage« bestimmte Wochentage bezeichnen oder aber die Tätigkeit des Montierens umschreiben. Andere Mehrdeutigkeiten tauchen in Verbindung mit Präpositionalphrasen auf, beispielsweise in der Aussage:
 
»Ich beobachte den Mann mit dem Teleskop.« Benutzt hier jemand ein Teleskop, um einen Mann zu beobachten, oder beobachtet er einen Mann, der ein Teleskop trägt?
 
Probleme entstehen auch in Verbindung mit zusammengesetzten Wörtern, die vor allem in der deutschen Sprache eine wichtige Rolle spielen und deren eindeutige Bedeutung sich erst in der Kombination der einzelnen Wortteile ergibt, wie etwa bei »Mädchen-handels-schule«.
 
Oft sind Sätze sogar in mehrerer Hinsicht doppeldeutig. Aber Menschen entschlüsseln sie mit einer solchen Selbstverständlichkeit, dass die Doppelsinnigkeit oft gar nicht bewusst wird. Der Satz »Steter Tropfen höhlt den Stein« beispielsweise wird meist problemlos verstanden, weil die meisten Menschen dieses Sprichwort kennen und in dem Sinne interpretieren, dass Ausdauer zum Erfolg führen kann.
 
Man ist sich oft nicht bewusst, wie viel Allgemeinwissen notwendig ist, um einen einfachen Satz in der natürlichen Sprache zu verstehen. Dies macht die Verarbeitung von Sprache zu einem der Schlüsselgebiete der KI.
 
Die Bedeutung eines Textes oder einer Rede ergibt sich also nicht einfach durch die Aneinanderreihung der Bedeutung einzelner Begriffe, sondern es müssen bestimmte Regeln angewendet werden, nach denen die Begriffe zu Sätzen zusammengefasst werden.
 
Bei der Erforschung dieser syntaktischen Regeln macht sich die Linguistik die Tatsache zunutze, dass gewisse grammatikalische Strukturen mit großer Regelmäßigkeit immer wiederkehren. Sätze, seien sie gesprochen oder geschrieben, beschreiben für gewöhnlich sowohl die handelnden Personen als auch die ausgeführte Handlung, wie etwa »Der Lehrer liest das spannende Buch«. Viele Sätze weisen eine solche regelmäßige Struktur auf. Diese Sätze lassen sich daher abstrakt als eine Folge von platzhaltenden Symbolen beschreiben, die durch eine Menge konkreter Sprachbegriffe ersetzt werden können. Noam Chomsky, ein Pionier der Sprachwissenschaft, entwickelte auf der Basis dieser Idee in den 1950er-Jahren eine Grammatik, mit der im Prinzip auch ein Computer in der Lage sein müsste, beliebige, syntaktisch korrekte Sätze zu bilden.
 
Vollständigkeit kann dieser Ansatz nicht für sich reklamieren, genauso wenig wie die alternativen Ansätze, die sich in der Nachfolge von Chomskys generativer Grammatik herausbildeten; man arbeitet mit Fragmenten, die nach und nach erweitert werden. Dazu ist zu bemerken, dass die Versuche der Linguistik, die Erscheinungsformen in natürlichen Sprachen systematisch und exakt zu beschreiben, noch relativ jung sind. Die Suche nach einem passenden Beschreibungsmodell (ähnlich wie Physiker ein Atommodell oder Chemiker Molekülketten haben) ist noch nicht abgeschlossen.
 
Damit der Komplexität noch nicht genug: Eine solche grammatikalische Analyse allein reicht jedoch nicht aus, um dem Bedeutungsgehalt eines Satzes gerecht zu werden. Würde eine semantische Analyse fehlen, so könnte ein Computer bezüglich des Satzes »Leichte fette Witze schreien gelb« nur konstatieren, dass er syntaktisch wohlgeformt, nicht jedoch, dass er offenbar völlig sinnlos ist.
 
Semantik beginnt bereits auf der Ebene der Wörter, die im Lexikon abgespeichert sind. Zur reinen Schreibweise des Worts können auch grammatikalische und semantische Kategorien wie Verb, unbelebter Gegenstand oder Tier gespeichert werden. Seine eigentliche Bedeutung erhält ein Wort aber erst aus dem Zusammenhang mit anderen Wörtern im Satz oder sogar im Kontext des gesamten Textes. Die KI nähert sich dieser Herausforderung mit einem gerüttelt Maß an theoretischem Handwerkszeug, dessen Feinheiten nur dem linguistisch Vorgebildeten zugänglich sind. Vieles ist hier auch nach wie vor nicht verstanden, die Spekulationen bewegen sich oftmals über schwankendem Grund.
 
Dabei hat sich Sprachtechnologie durch die Anforderungen der Informationsgesellschaft, der Präsentation von Produktangeboten auf dem Internet und einem Wissensfundus in Form von informellen Schriftstücken nicht nur für Internetdienstleistungen zu einer Schlüsseltechnologie entwickelt. Anfänge dieser Technologie sind in den agentenbasierten Anwendungen zu sehen, die in einem eingeschränkten Marktsegment autonom Angebote sammeln und vergleichen können, um beispielsweise den günstigsten Anbieter zu finden. Aber auch in Unternehmen liegen Wissensressourcen in Form von Dokumenten oft ungenutzt im Archiv: Erfahrungen, Teilkomponenten oder Vorgehensweisen schlummern dort verborgen und werden bei einem ähnlichen Auftrag meist nicht wieder entdeckt. Bei der Hebung dieser verborgenen Schätze zu helfen, ist eine der schwierigsten und gleichzeitig wichtigsten Aufgaben der künstlichen Intelligenz.
 
Eliza oder der Dialog mit der Maschine
 
Wenn die Antworten eines Computers vernünftig erscheinen, neigt der Mensch allzu schnell dazu, dem Computer mehr Verständnis zuzuschreiben, als er tatsächlich hat. Diese Grundannahme war Ausgangspunkt für das von Joseph Weizenbaum entwickelte System »Eliza«, mit dem man scheinbar Dialoge führen kann. Das System übernimmt dabei die Rolle eines Psychoanalytikers. Diese spezielle Rolle, die Eliza im Versuch zukam, ist relativ einfach zu imitieren, da die Interviewtechnik den Patienten Antworten entlockt, die sich in den gestellten Fragen mehr oder weniger widerspiegeln.
 
Man entdeckt in den Beispieldialogen, wie sie Joseph Weizenbaum in seinem 1977 erschienenen Buch »Die Macht der Computer und die Ohnmacht der Vernunft« anführt, schnell, dass die Dialogbeiträge des Systems an bestimmte Muster gekoppelt sind. Eliza benutzt dazu ein gespeichertes Wörtersortiment, in Verbindung mit einigen einfachen Regeln. Eliza versucht dabei stets, die speziellste dieser Regeln anzuwenden. Demzufolge führt der Satz »Ich bin sehr traurig« zu der Antwort »Warum sind Sie sehr traurig?«. Taucht die Bezeichnung eines Familienmitglieds wie »Mutter« im Eingabesatz auf, so antwortet Eliza mit »Erzählen Sie mir mehr über Ihre Mutter«. Falls Eliza keine Wortmuster finden kann, die mit gespeicherten Mustern übereinstimmen, so antwortet es mit doppelsinnigen Ausdrücken, die so aufgebaut sind, dass sie einer erneuten Eingabe neues Wissen entlocken sollen, etwa »Können Sie ein konkretes Beispiel geben?«.
 
Es ist einfach, bestimmte Merkmale mit einzubauen, sodass stereotypische Ausdrücke sich während eines Interviews nicht wiederholen, oder Ausdrücke aufs Geratewohl herzustellen, sodass die festen Muster, die den Antworten zugrunde liegen, nicht direkt erkennbar sind.
 
Eliza war so effektiv, dass Menschen das Programm sogar dann noch benutzten, um sich Rat zu holen, als ihnen gesagt wurde, dass das System in keiner Weise in der Lage war, irgendetwas von den Dialogen zu verstehen. Dies veranlasste Weizenbaum, in seinem oben erwähnten Buch vor der Gefährlichkeit des »Computers als unberechenbares Instrument« zu warnen — eine zumindest zum Teil begründete Warnung, nicht zu sehr mit dem Feuer zu spielen, wenn man der Maschinerie Aufgaben überantwortet, die zum ureigensten Bereich des Menschen gehören.
 
 Expertensysteme
 
Die Menge an Information hat sich drastisch erhöht. Der Mensch ist kaum mehr in der Lage, mit der Zunahme der Information Schritt zu halten und sie zu verarbeiten. Gleichzeitig aber erfordern technisch komplexe Zusammenhänge hochspezialisierte und teure Fachkräfte, die für eine bestimmte Aufgabe zu finden den Unternehmen oft nicht gelingt.
 
Dieses Problem wurde Anfang der 1980er-Jahre von einigen KI-Wissenschaftlern zum Anlass genommen, systematisch zu versuchen, die vorhandenen Formalismen der KI zur Darstellung und Verarbeitung von Wissen in eng abgesteckten Diskursbereichen einzusetzen. Heraus kamen die Expertensysteme, wissensbasierte Systeme zur Lösung industrieller Problemstellungen.
 
Bei der Konstruktion von Expertensystemen stellt sich meist das grundsätzliche Problem des Entwurfs der Wissensbasis, also des Erwerbs von Wissen und der Wahl eines geeigneten Formalismus. Bei diesem Vorgang macht man in der Praxis oft die Beobachtung, dass die befragten menschlichen Experten es nicht schaffen, ihr Wissen systematisch zu reflektieren und zu explizieren; dies ist das Paradoxon des Expertentums. Allzu oft wenden sie ihr Wissen spontan und intuitiv an, ohne sich an eine konkrete Vorgabe zu halten.
 
Um dem entgegenzuwirken, hat sich mit dem industriellen Einsatz von Expertensystemen das Berufsbild des Wissensingenieurs (englisch knowledge engineer) etabliert. Seine Aufgabe besteht in der zielbezogenen Befragung und Beobachtung eines Experten, in der gemeinsamen Sichtung von Normen und Vorschriften sowie in der anschließenden Formalisierung dieses Wissens.
 
Die Arbeitsweise eines Expertensystems beruht im Grunde auf ähnlichen Problemlösungsstrategien wie sie auch in einem Schachcomputer Anwendung finden. Die Qualität eines Expertensystems steht und fällt mit der Qualität und dem Umfang des in der Wissensbasis gespeicherten Wissens. Die Erstellung einer solchen Wissensbank mit den dazugehörigen Inferenzmechanismen ist zeit- und somit kostenintensiv. Soll ein Wissensingenieur erfolgreich für die Konstruktion der Wissensbasis eingesetzt werden, so muss er nicht nur über fundierte Kenntnisse als Informatiker, sondern auch über Grundlagen der entsprechenden Expertendomäne des zu erstellenden Systems verfügen.
 
Viele Firmen bieten heute Grundbausteine zur Erstellung individueller Expertensysteme an, die nur noch mit Sachwissen aufgefüllt werden müssen. Sie werden als Expertensystemschalen bezeichnet. Sie stellen in der Regel mehrere Formalismen zur Wissensrepräsentation zur Verfügung und bieten eine intuitive Benutzerschnittstelle, über die das Wissen eingegeben werden kann.
 
Expertensysteme können nicht als Ersatz für menschliche Experten angesehen werden. Oft können sie jedoch die Lösung von Problemen beschleunigen oder gewisse oft wiederkehrende Aufgabenstellungen auf Sachbearbeiterebene lösen helfen, in denen sonst die Hinzunahme eines Experten grundsätzlich notwendig ist. Expertensysteme werden in zahlreichen Anwendungsgebieten eingesetzt, die mit Diagnose, Planung, Vorhersage, Anlagensteuerung, Risikoanalyse oder Beratung befasst sind. Überall dort, wo Probleme nicht durch im Voraus festlegbare Prozesse gelöst werden können, sondern vielmehr auf der Grundlage von Wissen und seiner flexiblen Nutzung zur Erledigung von Routineaufgaben angegangen werden müssen, können sie als eine viel versprechende Alternative in Erwägung gezogen werden. Expertensysteme finden auch dann Lösungen, wenn Wissen fehlerhaft, unvollständig, ungenau oder unterschiedlich strukturiert ist.
 
Inzwischen haben die Expertensysteme begonnen, aus den Forschungslabors in die Anwendung vorzudringen. Gleichzeitig ist jedoch offenbar geworden, wie umfassend und gestreut menschliches Wissen ist; daher haben sich die Anwendungen stärker spezialisiert, als dies in einer kurzen euphorischen Phase in den 1980er-Jahren erhofft wurde. Es gibt immer noch große Bereiche von Expertenwissen, die sich einer effizienten Formalisierung widersetzen. Dies hat dazu beigetragen, dass sich in jüngerer Zeit die Auffassung von Expertensystemen als selbstständig problemlösenden Automaten zu eher unterstützenden Systemen in Zusammenarbeit mit dem menschlichen Experten verschoben hat. Hier werden die Expertensysteme aber sicher ihren Platz behaupten können.
 
Große Schwierigkeiten macht aber nach wie vor der Umgang mit unsicherem Wissen. Wo Menschen bei der Lösung eines Problems scheinbar ohne Nachdenken intuitiv die richtigen Gewichte setzen, mühelos Wichtiges von Unwichtigem trennen und schnell zum Kern des Problems vordringen, müssen Expertensysteme mühsam mit ausgefeilten Mechanismen einen Ballast von Vorschriften und Wissen verwalten, in dem Wesentliches und Unwesentliches nur nach starren Regeln zu unterscheiden ist. In den letzten Jahren hat daher der Ansatz, sich direkt am biologischen Vorbild Gehirn zu orientieren, zunehmend Anhänger gefunden, da das menschlichen Gehirn so ganz anders arbeitet als die symbolverabeitenden Routinen der klassischen Expertensysteme: Es ist ein neuronales Netzwerk von unerhörter Komplexität.
 
 
In unseren Köpfen gibt es eine Ehrfurcht gebietende Struktur, die unsere Handlungen steuert und ein Bewusstsein der uns umgebenden Welt bewirkt. Dieses Wunderwerk — das Gehirn — besteht letztendlich aus ungefähr 100 Milliarden Nervenzellen, Neuronen genannt — etwa so viele Sterne hat die Milchstraße! Diese Neuronen sind in vielfältiger, unüberschaubarer Weise miteinander verknüpft. Jede der Zellen erhält von ungefähr 10000 anderen Neuronen im Gehirn Informationen und sendet Botschaften an weitere tausend Nervenzellen. Ein streichholzkopfgroßer Teil des Gehirns enthält etwa eine Milliarde neuronale Vernetzungen, und die sich daraus ergebende Zahl möglicher Kontakte ist mit unserem Zahlensystem praktisch nicht mehr darstellbar. Kein Wunder also, dass der Molekularbiologe James Watson, einer der Entdecker des DNS-Moleküls, das Gehirn staunend für das Komplizierteste hält, was wir bisher in unserem Universum entdeckt haben.
 
Wie denkt nun ein solches Netzwerk von neuronalen Zellen, wie es unser Gehirn ist, und wie lernt es? Hier zeigt die genaue Betrachtung, dass die Funktionsweise unseres mentalen Apparats auf frappierende Weise verschieden ist von der »Denkweise« der »wissensbasierten« Maschinen, über die wir bisher gesprochen haben.
 
Um dies zu verstehen, betrachten wir zunächst den Aufbau einer einzelnen Nervenzelle: Jedes Neuron hat einen Zellkörper, dessen Durchmesser 5 bis 100 tausendstel Millimeter beträgt. Am Zellkörper befinden sich dünne röhrenförmige und stark verästelte Nervenfasern, die Dendriten genannt werden. Sie bilden die Kontaktstellen, an denen elektronische Impulse von anderen Nervenzellen aufgenommen werden. Solche Signale können ein Neuron in »Erregung« versetzen. Dies hat zur Folge, dass sich das Membranpotenzial in der Zelle über einen bestimmten Schwellenwert hinaus erhöht, sodass das Neuron einen elektrischen Impuls über einen Ausgangskanal, das Axon, abgibt. Über die Verzweigungen des Axons pflanzt sich der Impuls im neuronalen Netzwerk immer weiter fort und wird über die als Synapsen bezeichneten Übertragungswege auf andere Neuronen vermittelt. Diese Impulse sind quasi die Träger der Information.
 
Synapsen können sowohl hemmend als auch anregend auf ein Neuron wirken, sie können also vermittels ihrer Signale den elektrischen Aktivierungszustand einer Zelle negativ oder positiv beeinflussen. Dabei haben die Synapsen auch die Fähigkeit, die Beeinflussung stärker oder schwächer ausfallen lassen zu können. Die erstaunliche Entdeckung der Neurobiologen, was menschliches Lernen auf der Ebene der Gehirnzellen und der Synapsen bedeutet, formulierte der Physiologe Donald Hebb 1949 in dem Postulat, »dass sich eine Verbindung zwischen zwei Neuronen verstärkt, wenn sie intensiv genutzt wird.« Der Mensch lernt also, indem bestimmte Verbindungen zwischen den Nervenzellen seines Gehirns durch fortwährendes Training stärker werden, andere sich hingegen nicht verändern! Verkürzt ausgedrückt: Menschliches Lernen ist im Wachsen von Synapsen begründet.
 
Die spannende Frage, auf welche Weise diese kleinen elektrischen Impulse in unserem Gehirn zu komplexem Wissen, zu unseren Intelligenzleistungen formen, ist teils in Ansätzen verstanden, teils noch Gegenstand der aktuellen Forschung. Auf alle Fälle ist klar, dass hier nicht ein einzelnes Signal von Neuron zu Neuron eine logische Ja-nein-Information trägt, wie wir dies bereits von den »klassischen« KI-Systemen mit Wissensbasis und Inferenzmechanismus kennen, sondern dass hier eine grundlegend andere Form der Informationsverarbeitung vorliegt: Erst im komplexen Zusammenspiel einer Vielzahl von einfachen, uniformen Einheiten bildet sich die Information aus.
 
Wie reagiert nun die KI-Forschung, die es sich erklärtermaßen auf ihre Fahnen geschrieben hat, den menschlichen Denkprozess nachbilden zu wollen, auf diese Erkenntnisse?
 
Neuronale Netze in der KI
 
Die KI hat sich schon sehr früh mit der Idee des neuronalen Netzwerks beschäftigt; schon in dem bereits erwähnten Förderungsantrag für die Dartmouth-Konferenz 1956 wird auf die Möglichkeit künstlicher neuronaler Netze (KNN) ausdrücklich hingewiesen. Umso erstaunlicher erscheint es zunächst aus heutiger Sicht, wie spät, nämlich erst zu Beginn der 1980er-Jahre, dieser Ansatz genauer betrachtet wurde. Dabei gab es die ersten praktischen Erfolge von KNN bereits in den 1950er-Jahren. Schon im Jahr 1943 hatten Warren McCulloch und Walter Pitts vorgeschlagen, die Neuronen als logische Schaltelemente mit Binärlogik anzusehen. Frank Rosenblatt konstruierte bereits 1957 mit seinem Perceptron die erste Maschine mit einer neuronenähnlichen Verschaltung, 1960 folgte dann das Pandämonium von Selfridge und Neisser, und 1985 konnte W. Daniel Hillis seine Connection Machine vorstellen, einen komplexen und ultraschnellen Parallelrechner nach dem Prinzip neuronaler Architektur. Sie alle wurden jedoch zunächst durch eine vernichtende Kritik, angeführt von Marvin Minsky, der sich Ende der 1950er-Jahre selbst eine Zeit lang mit künstlichen neuronalen Netzwerken beschäftigt hatte, ins Abseits gedrängt. Die 1970er-Jahre wurden von den Forschern als eine »neuronale Eiszeit« bezeichnet, so sehr wenig lief in Sachen neuronale Netze. Inzwischen hat Minsky seine Kritik widerrufen, und die Idee der KNN und ihre Propagatoren sind zu neuem Ruhm aufgestiegen. Heute gehen die KNN-Forscher, getragen von dem Erfolg ihrer Forschungsergebnisse, in die Offensive, und man versucht seit den frühen 1980er-Jahren verstärkt, Computersysteme zu konstruieren, welche die informationsverarbeitenden Prozesse im Gehirn simulieren sollen.
 
Hier liegt ein Paradebeispiel dafür vor, wie die für eine falsche Meinung in die Waagschale geworfene Autorität eines anerkannten Wissenschaftlers die Forschung auf diesem Gebiet für lange Zeit behindern kann. Hätte man den physiologischen Grundgedanken der KNN nicht jahrzehntelang vernachlässigt, so hätte die KI sicherlich eine ganz andere Entwicklung genommen. Der Harvard-Professor John Daugman beklagt in diesem Zusammenhang: »Das Wohnhaus KI sieht, rückblickend betrachtet, eher wie ein Gefängnis aus, dessen Räume nicht miteinander in Verbindung stehen und dessen Korridore ins Nichts führen.«
 
Selbst heute werden die künstlichen neuronalen Netze, obwohl dies nach dem interdisziplinären Geist der Dartmouth-Konferenz nicht sehr plausibel ist, von manchen Forschern nicht zum Gebiet der KI gerechnet. Dessen ungeachtet gilt die direkte Orientierung an den Vorgängen im Gehirn derzeit als einer der vielversprechendsten Ansätze in der künstlichen Intelligenz, insbesondere in der Bild- und Mustererkennung.
 
Der Unterschied zum »klassischen« Konzept der symbolverarbeitenden Maschinen ist dabei so grundlegend, dass man hier sogar von einem Paradigmenwechsel spricht. In betonter Abweichung von der bisher vorgetragenen Grundthese, dass Denken sich als die Summe von logischen Einzelprozessen darstellen lässt, wird die als Paradigma des Konnektionismus bezeichnete Überzeugung formuliert:
 
»Informationsverarbeitung erfolgt durch Wechselwirkung vieler einfacher, uniformer Einheiten, die anregende und hemmende Signale an andere Einheiten schicken.«
 
Bei diesem neuen Paradigma spricht man von subsymbolischer Verarbeitung, da das Wissen nicht symbolisch und explizit, sondern in einem Netzwerk auf sehr indirekte und subtile Weise in den Verbindungen der Neuronen und im Zustand der Neuronen versteckt ist.
 
Zwar scheitert die Konstruktion eines Computersystems, das die neuronalen Strukturen des menschlichen Gehirns genau nachbildet, nach wie vor notwendigerweise an dessen aberwitziger Komplexität sowohl im mikroskopischen als auch makroskopischen Bereich sowie an den noch ungeklärten Funktionalitäten der verschiedenen Gehirnareale. Allerdings ist es immerhin möglich, die Funktion eines einzelnen Neurons mithilfe einer elektronischen Schaltung zumindest angenähert nachzubauen; ein solches Schaltungselement hat den Namen »künstliches Neuron« durchaus verdient. Die übliche Vorgehensweise ist es nun, eine vergleichsweise geringe Anzahl von künstlichen Neuronen zu einem künstlichen neuronalen Netzwerk zu verbinden. Solche KNN sind zwar nur stark vereinfachte Modelle unseres Gehirns, sie repräsentieren jedoch ein grundlegendes Prinzip seiner Mikrostruktur: die massiv parallele Informationsverarbeitung einer Vielzahl uniformer, einfacher Elemente, die entlang unterschiedlich ausgeprägter Verbindungen Impulse miteinander austauschen. Man kann nun an realen Aufgabenstellungen testen, ob solch ein Netzwerk ein intelligentes Verhalten zeigt.
 
Welche Erfolge können die künstlichen neuronalen Netze für sich verbuchen, was können sie, was mit dem »klassischen« symbolverarbeitenden Ansatz nicht oder nur schlechter geht?
 
Beispiel Mustererkennung
 
Künstliche neuronale Netze vollbringen Leistungen, für die Intelligenz erforderlich ist, die aber mit den Mitteln der »klassischen« symbolverarbeitenden KI nur schwer zu lösen sind. Sie sind beispielsweise in der Lage, zumindest teilweise die bildhafte, imaginäre Art und Weise nachzuvollziehen, in der der Mensch sich Gegenstände, Begriffe und bisweilen sogar abstrakte Sachverhalte vergegenwärtigt.
 
Wenn wir beispielsweise über einen Tiger reden, so stellt sich unmittelbar die bildhafte Vorstellung dieser Raubkatze ein. Diese Fähigkeit zur Imagination hilft unter anderem wesentlich dabei, Objekte wieder zu erkennen, die nur schemenhaft wahrnehmbar oder teilweise verdeckt sind.
 
Wir orientieren uns an markanten Teilen, an Mustern oder Eigenschaften und versuchen, den visuellen Eindruck mit etwas, das uns bekannt ist, zu assoziieren.
 
Kommen wir zu unserer indischen Großkatze zurück. Bei der Imagination gibt es weder eine explizite noch eine formale Beschreibung eines Tigers. Die implizite Vorstellung eines Tigers entspricht eher abstrakten bildhaften Eindrücken, die in unserem Gedächtnis verankert sind. Diese Eindrücke beinhalten möglicherweise keinen großen Detaillierungsgrad, sondern kommen Schemen gleich, welche die markantesten Eigenschaften festhalten und in unserem Gedächtnis verankern.
 
Erst in den letzten Jahrzehnten ist es der Medizin und der Biologie, insbesondere der Mikro- und Neurobiologie gelungen, die Grundfunktionen des Gedächtnisses zu erfassen.
 
Im Prinzip kann jedes Element des Netzwerks mit jedem anderen verbunden sein. Meist sind jedoch die Elemente — in Anlehnung an das biologische Vorbild, etwa das menschliche Sehsystem — in mehreren Schichten angeordnet, wobei Neuronen einer Schicht nur Signale von Neuronen der benachbarten Schicht erhalten. Typisch sind KNN mit einer bis fünf Schichten. Die Elemente der ersten Schicht, der Eingabeschicht, erhalten ihre Signale von außen, entsprechend den Sinneszellen des biologischen Vorbilds. Die letzte Schicht entspricht der Ausgabe des Systems, an der das Ergebnis des informationsverarbeitenden Erinnerungsprozesses angezeigt wird. Typischerweise ist hier ein (eventuell verrauschtes) Muster wie beispielsweise ein Tigerbild die Eingabe, und als Ausgabe wird dann ein Neuron definiert, das die Bedeutung »Tier Tiger« hat.
 
Der große Unterschied zu den »klassischen« wissensbasierten KI-Systemen beruht auf der Art und Weise, in der das Netzwerk zu diesem Ergebnis kommt: Die eigentliche Informationsverarbeitung läuft in den verborgenen Schichten ab, und es gibt Mechanismen, die bewirken, dass sich zu einem vorgegeben Eingabe-Ausgabe-Paar die Gewichte des Netzwerks anpassen. Daher müssen die künstlichen neuronalen Netze nicht explizit programmiert werden, sondern werden in einer Trainingsphase auf ihre Aufgabe hin getrimmt. Bei diesem Training »erlernt« das Netz die Fähigkeit, zu einem Muster die dazugehörige Ausgabe zu erzeugen. An der Eingabeschicht des Netzes werden Beispiele und Gegenbeispiele des zu erlernenden Musters »gezeigt« und das Netz über die Elemente der Ausgabeschicht adjustiert.
 
Vor dem Training des neuronalen Netzes sind seine Gewichte zufällig eingestellt. Durch Eingabe eines Musters und Vergleich der Ausgabe mit dem richtigen Resultat wird der Fehler berechnet und durch Rückkopplung des Impulses die Gewichte im Netz verändert. Dieser Vorgang wird oft mehrere Tausend Mal wiederholt. Auf diese Weise erreicht man, dass sich das Netz innerhalb der verborgenen Schichten selbst organisiert und ein stabiler Zustand erreicht wird, der durch weiteres Training nicht mehr verbessert werden kann. Diese Vorgehensweise entspricht dem bekanntesten Lernalgorithmus im Bereich der KNN, der Backpropagation — zu Deutsch so viel wie Fehlerrückvermittlung. Das Trainieren des Netzes wird in diesem Fall durch einen Lehrer vorgenommen.
 
Neben dieser Form des Trainings gibt es das nichtüberwachte Lernen, bei dem keine Rückkopplung von einer vorgegebenen Ausgabe erfolgt. Ein KNN, das nach diesem Prinzip arbeitet, soll auf die Eingabe ähnlicher Muster mit ähnlichen Ausgaben reagieren. Netzwerke dieser Art bezeichnet man als selbstorganisierende Karten. Sie gehen auf den finnischen Wissenschaftler Teuvo Kohonen zurück und arbeiten mit einer Eingabeschicht und einer als Wettbewerbsschicht bezeichneten Ebene, deren Elemente alle untereinander verbunden sind.
 
Jedes Element der Wettbewerbsschicht ist vollständig mit Elementen der Eingabeschicht verbunden. Im Allgemeinen gilt, dass Elemente der Wettbewerbsschicht, die benachbart sind, von ähnlichen Eingaben angesprochen werden, das heißt Aktivität erzeugen. Im Speziellen reagieren die einzelnen Elemente auf individuelle Eigenschaften der Eingabe. Unwesentliche Eingabemerkmale werden dabei unterdrückt und wesentliche an einer bestimmten Stelle der Wettbewerbsschicht verstärkt.
 
Wird ein bestimmtes Muster an der Eingabeschicht angelegt, so vergleicht sie jedes Element der Wettbewerbsschicht mit dem »vorgefassten Bild«. Je stärker die Eingabe diesen Vorstellungen entspricht, umso stärker wird das Element aktiviert. Als Konsequenz dieser Netztopologie unterdrückt dasjenige Element, das die größte Aktivität aufweist, über seine Querverbindungen zu seinen Nachbarelementen deren Aktivität. Es geht quasi aus dem Trainingsvorgang als Sieger hervor und vereinigt die gesamte Aktivität bei einer bestimmten Eingabe ausschließlich auf sich.
 
Der Lernvorgang geschieht also durch eine Selbstorganisation, indem die Gewichte schrittweise so verändert werden, dass bei einer erneuten Eingabe des gleichen Musters eine noch größere Übereinstimmung gefunden wird.
 
Die Selbstorganisation eines KNN bedeutet fast immer die Anpassung der Gewichte an den Verbindungen zwischen den Elementen. Hat ein Eingangsgewicht einer Zelle einen hohen Wert, so verhält sie sich empfindlich auf jedes Signal, das sie über diese Verbindung erhält. Setzt man den Wert gänzlich auf null, so hat ein Signal keinerlei Wirkung auf die Zelle. Ist der Wert gar negativ, so wirkt das Signal hemmend. Diese Wirkung ist vergleichbar mit der inhibitorischen und exzitatorischen Wirkung von Synapsen bei biologischen Neuronen.
 
Um die Gewichte eines Netzes zu verändern, verwendet man eine Lernregel. Sie sorgt während des Trainings dafür, dass sich die Werte der Gewichte in einen stabilen Zustand einschwingen, sodass das gewünschte Verhalten erreicht wird. Die Art der Lernregel zusammen mit der Netztopologie und der gewählten Aktivierungsfunktion sind die wichtigsten Parameter eines KNN.
 
Warum künstliche neuronale Netze?
 
Das Wissen, das man braucht, um ein Problem zu lösen, wird im KNN nicht explizit repräsentiert, sondern verteilt im gesamten Netzwerk aus Verbindungen und Schwellwertelementen gespeichert. Dies ist ein grundlegender Unterschied zur Symbolverarbeitung und einer der wesentlichen Gründe, warum neuronale Modelle als Mechanismus zur Simulation menschlicher Intelligenz verwendet werden. Traditionelle KI-Programme, basierend auf exakten »Wenn-dann«-Beziehungen der Logik, sind anfällig bei unvollständigen oder ungenauen Aussagen. Der Ansatz mittels künstlicher neuronaler Netze ist hier toleranter.
 
Alles, was ein KNN gelernt hat, schlägt sich in seinen Verbindungsgewichten nieder. Die Nachvollziehbarkeit der Lösung ist dabei sehr schwierig. Bestenfalls lässt sich nachweisen, dass eine Lernaufgabe vollständig gelöst ist, ohne zu wissen, wie dies geschieht. Trotzdem scheinen KNN aufgrund der verteilten Speicherung von Wissen in einer großen Anzahl von einfachen Elementen eher in der Lage zu sein, assoziative Beziehungen zu unscharfen Eingabeinformationen herzustellen und entsprechende Ausgaben zu erzeugen. Für bestimmte Probleme der Bild- und Sprachverarbeitung sind neuronale Netze daher besonders gut geeignet.
 
 Menschliche Intuition und formale Logik
 
Und nun zum Schluss unseres kleinen Rundgangs noch einmal die Gretchenfrage der künstlichen Intelligenz: Sind unsere heutigen Maschinen denn nun tatsächlich intelligent, besitzen sie Geist wie der Mensch? Letztlich wohl nicht. Viele geistige Leistungen des Menschen gehen auf eine intuitive Bewertung zurück und sind oft weder kalkulierbar noch nachvollziehbar. Die meisten logischen Umsetzungen kreativer Ideen sind emotional getrieben, also von komplexen Strukturen subjektiver Empfindungen tief in unserem Inneren. Die emotional gesteuerte Intuition schärft unseren Verstand und erlaubt es uns, den über unsere Sinnesorgane aufgenommenen Informationsfluss zu bewerten. Der einfache Umgang und das Rechnen mit Zahlen reicht nicht aus, um eine gefühlsmäßige Vorstellung von Dimensionen, Zeit und Ausdehnung zu bekommen; gerade das ist es aber, was wir benötigen, um eine konkret gegebene Situation im Kontext richtig einschätzen zu können. Dies wird beispielsweise in den Untersuchungen an Patienten deutlich, deren neuronale Verbindungen im limbischen System, einem Hauptsitz unserer Emotionen, gestört ist: Sie sind zwar in der Lage, ein Problem logisch zu durchdringen, sind jedoch unfähig, eine Entscheidung zu treffen, sobald Lösungsalternativen gleich gut sind.
 
Natürliche Intelligenz zeichnet sich also durch die sorgfältige Auswahl individueller Ziele aus. Dieser Auswahlprozess erfolgt durch Reflexion, wobei man die Qualität der Ziele von der Sinnhaftigkeit des eigenen Empfindens abhängig macht. Computern oder KI-Systemen fehlt nach wie vor diese Form einer perspektivischen Entwicklungsmöglichkeit. Sie arbeiten reflexionslos, ohne Frage nach Ursache und Sinn.
 
Die These einiger KI-Wissenschaftler, dass es zwischen den kognitiven Fähigkeiten bei Mensch und Maschine keine prinzipiellen Unterschiede mehr geben soll, scheint daher trotz der Fortschritte im Bereich der KI auch aus heutiger Sicht nicht angebracht, und die stark operationalistische Sicht der KI, wie Alan Turing sie 1950 formuliert hat, zu einseitig. Heutige Realisierungsansprüche an intelligente KI-Systeme sind aufgrund einiger herber Rückschläge und enttäuschter Erwartungen viel geringer: Ein System, das sich kompetent in einer »Domäne«, einem präzise abgegrenzten Feld zurechtfindet, ist der heutige Forschungsfokus laufender Projekte. Ein Computersystem mag zwar theoretisch in der Lage sein, das Verhalten eines Menschen in beliebig vielen Abstufungen zu simulieren, kein Mensch könnte jedoch einen entsprechenden Supercomputer konstruieren und seine Funktionsweise verstehen. Zu komplex sind die Zusammenhänge zwischen dem »Wunder Gehirn« und der Intelligenz, die durch das Gehirn ermöglicht wird.
 
Den Schluss soll ein Wort des Philosophen Hans Jonas bilden, der einen vorsichtigen Umgang mit den intelligenten Maschinen einfordert: »Wenn der Einsatz von Computern dazu führen sollte, dass die große Bedeutung des einzelnen Individuums zugunsten einer möglichst reibungslos arbeitenden Maschinerie untergraben würde, wäre das schlimm: Der Verlust des Respekts vor der Subjektivität wäre eine große Gefahr für die Menschheit.«
 
Prof. Dr. Andreas Dengel
 
Weiterführende Erläuterungen finden Sie auch unter:
 
Parallelrechner: Wie macht man Computer schneller?
 
Grundlegende Informationen finden Sie unter:
 
künstliche Intelligenz: Ein interdisziplinäres Forschungsgebiet
 
 
Churchland, Patricia S. / Sejnowski, Terrence J.: Grundlagen zur Neuroinformatik und Neurobiologie. The computational brain in deutscher Sprache. Aus dem Englischen. Braunschweig u. a. 1997.
 Cruse, Holk u. a.: Die Entdeckung der Intelligenz oder können Ameisen denken? Intelligenz bei Tieren und Maschinen. München 1998.
 Dengel, Andreas: Künstliche Intelligenz. Allgemeine Prinzipien und Modelle. Mannheim u. a. 1994.
 Dörner, Dietrich: Bauplan für eine Seele. Reinbek 1999.
 
Einführung in die künstliche Intelligenz, herausgegeben von Günther Görz. Bonn u. a. 21995.
 Kurzweil, Raymond: Homo s@piens. Leben im 21. Jahrhundert - was bleibt vom Menschen? Aus dem Englischen. Köln 21999.
 Lossau, Norbert: Wenn Computer denken lernen. Neuronale Netzwerke. Frankfurt am Main u. a. 1992.
 Mainzer, Klaus: Gehirn, Computer, Komplexität. Berlin u. a. 1997.

Universal-Lexikon. 2012.

Нужно решить контрольную?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • künstliche Intelligenz: Ein interdisziplinäres Forschungsgebiet —   In den letzten Jahrzehnten hat die Computertechnik enorme Fortschritte gemacht, und zweifellos wird man Rechengeschwindigkeit, Speicherkapazität und logisches Design in den kommenden Jahrzehnten noch wesentlich weiter verbessern. Die Computer… …   Universal-Lexikon

  • neuronale Netze — I neuronale Netze,   Bezeichnung für Rechnerarchitekturen beziehungsweise Rechnernetzarchitekturen, deren Struktur und Funktion sich an den Nervennetzen lebender Organismen orientiert. Das Ziel solcher Architekturen ist es, bei der elektronischen …   Universal-Lexikon

  • Logik — Folgerichtigkeit; logische Korrektheit; Übereinstimmung; Stimmigkeit; Dialektik; Analytik; Gesetzmäßigkeit; Vernunft; Konsequenz * * * Lo|gik [ lo:gɪk], die; : 1 …   Universal-Lexikon

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”